Alert „Nudify”: Sztuczna inteligencja napędza aplikacje, które „rozbierają” dowolne zdjęcie

Co się dzieje, gdy technologia staje się narzędziem nękania i przemocy cyfrowej? Co, jeśli filary internetu – Amazon, Google czy Cloudflare – nie tylko nie zdołają temu zapobiec, ale wręcz pośrednio to ułatwią?
W ciągu ostatnich dwóch lat pojawiło się mnóstwo stron internetowych i aplikacji, które umożliwiają tworzenie fałszywych nagich zdjęć z prawdziwych zdjęć bez zgody osób na nich przedstawionych . Obietnica aplikacji działających jak „prześwietlenia rentgenowskie” nie jest nowa, ale dzięki sztucznej inteligencji przeżywa renesans.
Nowe badania rzucają światło na zakres, model biznesowy i podmioty, które umożliwiają istnienie tej ukrytej branży. Najbardziej niepokojące jest nie tylko istnienie tych platform , ale także ich zaawansowanie biznesowe i zależność od infrastruktury technologicznej, z której korzystamy na co dzień.
Podejrzany biznes nudystów: od gier na marginesie do wielomilionowego przemysłuBranża „nudify” nie pojawiła się znikąd. Odkąd w 2017 roku pojawiły się pierwsze wyraźne deepfake'i , technologia ta stała się bardziej wyrafinowana i zdemokratyzowana. Dziś zdjęcie przesłane na jedną z takich stron wystarczy, aby stworzyć fałszywy obraz o charakterze seksualnym za pomocą zaledwie kilku kliknięć. To, co zaczęło się jako niepokojąca ciekawostka techniczna, przekształciło się w przemysł niechcianych treści seksualnych, generujący dziesiątki milionów dolarów rocznie.
Według analizy Indicator , 18 z tych serwisów zarobiło od 2,6 do 18,4 miliona dolarów w ciągu ostatnich sześciu miesięcy. Osiągają to poprzez sprzedaż subskrypcji lub kredytów, tak jak każda inna platforma rozrywki cyfrowej. Wiele z nich naśladuje model biznesowy OnlyFans czy Twitcha, oferując programy partnerskie, filmy promocyjne, a nawet umowy z aktorkami porno.
Jednak jego wpływ społeczny jest daleki od błahego. Większość ofiar to kobiety, często nastolatki, które nigdy nie wyraziły zgody na manipulację swoimi zdjęciami. Po stworzeniu, zdjęcia krążą w mediach społecznościowych, na forach, kanałach Telegramu i innych platformach, które trudno śledzić. Szkody emocjonalne i wizerunkowe są nieobliczalne.
Kluczowa rola Google, Amazon i Cloudflare w utrzymaniu ekosystemu przy życiuJednym z najbardziej zaskakujących aspektów badania jest nie tylko liczba wizyt czy generowanych środków, ale także infrastruktura technologiczna wspierająca system . Spośród 85 przeanalizowanych witryn:
- 62 osoby korzystają z Amazon Web Services lub Cloudflare w celu hostowania i dystrybucji treści.
- 54 korzysta z systemu logowania Google.
- Wiele z nich zdecydowało się na zintegrowane metody płatności oparte na legalnych bramkach komercyjnych.
Problem polega nie tylko na tym, że te duże platformy są wykorzystywane, ale także na tym, że są one wykorzystywane wielokrotnie i masowo, bez skutecznego nadzoru ani systematycznych działań mających na celu demontaż tych przestrzeni. Według Alexiosa Mantzarlisa, współzałożyciela Indicator , „Dolina Krzemowa przyjęła podejście laissez-faire do generatywnej sztucznej inteligencji”, co dało tym toksycznym firmom szansę na przetrwanie.
Google i Amazon deklarują, że podejmują działania w przypadku wykrycia naruszeń swoich zasad, ale w rzeczywistości ich system monitorowania jest wadliwy. W wielu przypadkach twórcy tych stron internetowych korzystają z usług stron pośredniczących, aby ukryć swoje prawdziwe intencje i w ten sposób uniknąć automatycznych kontroli.
Niewidzialne ofiary: kiedy obraz staje się broniąRozwój tych platform przyniósł ze sobą nową formę cyfrowego molestowania seksualnego i przemocy . Ofiary rzadko zdają sobie sprawę, że ich wizerunek został zmanipulowany. Zanim się o tym dowiedzą, szkody już zostały wyrządzone. A usunięcie takich treści z cyfrowego ekosystemu jest praktycznie niemożliwe.
Do najbardziej alarmujących przypadków należą te dotyczące nastolatków. W kilku krajach chłopcy wykorzystują zdjęcia swoich kolegów z klasy do tworzenia deepfake'ów, które następnie są publikowane w grupach WhatsApp lub w mediach społecznościowych. Ta forma cyberprzemocy nie pozostawia fizycznego śladu, ale pozostawia głębokie rany.
Problem pogłębia brak jasnych przepisów lub ich powolne wdrażanie . Chociaż w kilku krajach tworzenie i rozpowszechnianie fałszywych obrazów o charakterze seksualnym zaczyna być kryminalizowane, ramy prawne nie nadążają jeszcze za technologią. Platformy z kolei twierdzą, że są jedynie dostawcami infrastruktury, a nie treści.
Między pornografią a oszustwem cyfrowym: rosnąca szara strefaGospodarka nudystów staje się coraz bardziej wyrafinowana. Niektóre strony oferują nawet „usługi premium” o lepszej jakości . Inne reklamują się na platformach z filmami dla dorosłych lub stosują techniki marketingu afiliacyjnego. Zaczynają wtapiać się w legalny przemysł pornograficzny, szukając legalności lub przynajmniej anonimowości w chaosie internetowych treści dla dorosłych.
Zjawisko to stanowi szarą strefę cyfrową , w której wykorzystywanie seksualne łączy się z modelami biznesowymi e-commerce. Co więcej, odbywa się to za pośrednictwem pozornie legalnych kanałów: bramek płatniczych, systemów lojalnościowych, ruchu SEO i promowanych filmów.
Dla ekspertów kluczem jest odcięcie dostępu do zasobów, które umożliwiają funkcjonowanie tych platform. Jeśli duże firmy technologiczne zablokują usługi w chmurze, systemy rejestracji czy hosting, wiele z tych stron upadnie. Celem nie jest ich całkowite wyeliminowanie – co jest niemożliwe – ale utrudnienie im funkcjonowania, tak aby utraciły widoczność, użytkowników i przychody.
Chociaż problem narastał od lat, niektóre ostatnie działania wskazują na zmianę priorytetów . Meta pozwała firmę odpowiedzialną za reklamę na swojej platformie, w której reklamował się nudysta . Microsoft namierzył twórców deepfake'ów z udziałem celebrytów. Administracja USA uchwaliła kontrowersyjną ustawę „Take It Down Act”, która nakłada na firmy technologiczne obowiązek szybkiego reagowania na zgłoszenia dotyczące treści o charakterze seksualnym o charakterze niekonsekwentnym.
W Wielkiej Brytanii tworzenie deepfake'ów o charakterze seksualnym zostało już uznane za przestępstwo. Niektóre miasta, takie jak San Francisco, pozwały firmy, które sprzedają te narzędzia. Jednak środki są nadal niepełne i reaktywne. Brakuje wspólnej, kompleksowej i zdecydowanej strategii.
Analitycy uważają, że ryzyko polega na tym, że platformy te będą szukać schronienia w jeszcze mniej uregulowanych przestrzeniach cyfrowych , takich jak dark web czy zamknięte sieci społecznościowe. Jednak nawet w tych środowiskach ich wpływ będzie mniejszy, jeśli stracą wsparcie logistyczne i komercyjne, które obecnie otrzymują od dużych firm technologicznych.
eleconomista